与图像集表示相比,神经表示表现出非常紧凑的同时非常紧凑的能力表现出了巨大的希望。但是,当前的表示不适合流式传输,因为解码只能以单个详细信息进行,并且需要下载整个神经网络模型。此外,高分辨率光场网络可以表现出闪烁和混叠,因为在没有适当过滤的情况下采样了神经网络。为了解决这些问题,我们提出了一个渐进的多尺度光场网络,该网络编码具有多个细节的光场。较低的细节使用更少的神经网络权重编码,从而可以进行渐进的流和减少渲染时间。我们的渐进多尺度光场网络通过在其较低的细节级别编码较小的反陈述来解决混蛋。此外,每个像素的细节级别使我们的表示能够支持抖动的过渡和浮动渲染。
translated by 谷歌翻译
我们引入了一个新的隐式形状表示,称为基于射线的隐式函数(PRIF)。与基于处理空间位置的签名距离函数(SDF)的大多数现有方法相反,我们的表示形式在定向射线上运行。具体而言,PRIF的配制是直接产生给定输入射线的表面命中点,而无需昂贵的球体跟踪操作,因此可以有效地提取形状提取和可区分的渲染。我们证明,经过编码PRIF的神经网络在各种任务中取得了成功,包括单个形状表示,类别形状的生成,从稀疏或嘈杂的观察到形状完成,相机姿势估计的逆渲染以及带有颜色的神经渲染。
translated by 谷歌翻译
In consequential decision-making applications, mitigating unwanted biases in machine learning models that yield systematic disadvantage to members of groups delineated by sensitive attributes such as race and gender is one key intervention to strive for equity. Focusing on demographic parity and equality of opportunity, in this paper we propose an algorithm that improves the fairness of a pre-trained classifier by simply dropping carefully selected training data points. We select instances based on their influence on the fairness metric of interest, computed using an infinitesimal jackknife-based approach. The dropping of training points is done in principle, but in practice does not require the model to be refit. Crucially, we find that such an intervention does not substantially reduce the predictive performance of the model but drastically improves the fairness metric. Through careful experiments, we evaluate the effectiveness of the proposed approach on diverse tasks and find that it consistently improves upon existing alternatives.
translated by 谷歌翻译
人类在整个生命周期中不断学习,通过积累多样化的知识并为未来的任务进行微调。当出现类似目标时,神经网络会遭受灾难性忘记,在学习过程中跨顺序任务跨好任务的数据分布是否不固定。解决此类持续学习(CL)问题的有效方法是使用超网络为目标网络生成任务依赖权重。但是,现有基于超网的方法的持续学习性能受到整个层之间权重的独立性的假设,以维持参数效率。为了解决这一限制,我们提出了一种新颖的方法,该方法使用依赖关系保留超网络来为目标网络生成权重,同时还保持参数效率。我们建议使用基于复发的神经网络(RNN)的超网络,该网络可以有效地生成层权重,同时允许在它们的依赖关系中。此外,我们为基于RNN的超网络提出了新颖的正则化和网络增长技术,以进一步提高持续的学习绩效。为了证明所提出的方法的有效性,我们对几个图像分类持续学习任务和设置进行了实验。我们发现,基于RNN HyperNetworks的建议方法在所有这些CL设置和任务中都优于基准。
translated by 谷歌翻译
基于模糊规则的系统(FRBS)是一个基于规则的系统,它使用语言模糊变量作为前身,因此代表人类可理解的知识。它们已应用于整个文献的各种应用和领域。但是,FRBS遭受了许多缺点,例如不确定性表示,大量规则,解释性损失,学习时间高的计算时间等,以克服FRBS的这些问题,存在许多范围的FRBS。在本文中,我们介绍了模糊系统(FRBS)的各种类型和突出领域的概述和文献综述,即遗传模糊系统(GFS),层次结构模糊系统(HFS),Neuro Fuzzy System(NFS),不断发展的模糊系统(EFS)(EFS)(EFS) ),在2010 - 2021年期间,用于大数据的FRBS,用于数据不平衡数据的FRBS,用于不平衡数据的FRBS,用于使用集群质心作为模糊规则的FRB和FRBS。 GFS使用遗传/进化方法来提高FRBS的学习能力,HFS解决了FRBS的尺寸诅咒,NFS在EFS中考虑使用神经网络和动态系统来提高FRBS的近似能力,并且在EFS中考虑了动态系统。 FRBs被视为大数据和不平衡数据的好解决方案,近年来,由于高维度和大数据和规则,使用集群质心来限制FRBS中的规则数量,因此FRBS的可解释性已受欢迎。本文还强调了该领域的重要贡献,出版统计和当前趋势。该论文还涉及几个需要从FRBS研究社区进一步关注的开放研究领域。
translated by 谷歌翻译
在结果决策中使用机器学习模型通常会加剧社会不平等,特别是对种族和性别定义的边缘化群体成员产生不同的影响。 ROC曲线(AUC)下的区域被广泛用于评估机器学习中评分功能的性能,但与其他性能指标相比,在算法公平性中进行了研究。由于AUC的成对性质,定义基于AUC的组公平度量是成对依赖性的,并且可能涉及\ emph {group}和\ emph {group} aucs。重要的是,仅考虑一种AUC类别不足以减轻AUC优化的不公平性。在本文中,我们提出了一个最小值学习和偏置缓解框架,该框架既包含组内和组间AUC,同时保持实用性。基于这个Rawlsian框架,我们设计了一种有效的随机优化算法,并证明了其收敛到最小组级AUC。我们对合成数据集和现实数据集进行了数值实验,以验证Minimax框架的有效性和所提出的优化算法。
translated by 谷歌翻译
最近的工作表明,与基督徒和印度教徒相比,在提示穆斯林的提示时,GPT-3模型有偏见的态度。两次预注册的复制尝试,一次是精确的和一个近似的尝试,在最近的GPT-3的最新指示系列版本中发现了最弱的偏差,以消除有偏见和有毒的输出。很少观察到暴力完成。然而,其他预注册的实验表明,在提示中使用与宗教相关的通用名称的暴力完成率显着增加,这也揭示了对穆斯林的二阶偏见。来自非暴力领域的穆斯林名人的名字导致了相对较少的暴力完成,这表明获得个性化信息可以使该模型无法使用刻板印象。尽管如此,内容分析揭示了宗教特定的暴力主题,其中包含高度冒犯性思想,无论及时格式如何。我们的结果表明,有必要对大语言模型进行额外的歧义,以解决高阶模式和关联。
translated by 谷歌翻译
自然语言处理(NLP)的一种常见实践是在不阅读整个文献的情况下可视化文本语料库,但仍掌握了中心思想和所描述的关键点。长期以来,研究人员致力于从文本中提取主题,并根据其在语料库中的相对意义进行可视化。但是,最近,研究人员开始提出更复杂的系统,这些系统不仅揭示了语料库的主题,而且与主题密切相关的一句话,从而使用户有整体的看法。这些详细的可视化催生了基于其可视化比较文本语料库的研究。通常将主题进行比较,以理想情况下的差异。但是,为了捕获来自不同语料库的更多语义,研究人员已经开始根据与文本相关的主题的观点进行比较。比较携带重量最多的单词,我们可以了解语料库的重要主题。有多个现有的文本比较存在的方法,这些方法比较主题而不是情感,但是我们觉得专注于携带情感的单词可以更好地比较这两个语料库。由于只有情感可以解释文本的真实感觉,而不仅仅是主题,因此没有情感的话题只是名词。我们旨在区分语料库,重点是情绪,而不是比较两个语料库中出现的所有单词。背后的理由是,这两个语料库并没有很多单词进行并排比较,因此比较情感的词语使我们了解了该语料库如何吸引读者的情感。我们可以说,熵,主题的意外性和差异也应该很重要,并帮助我们确定关键的枢轴点以及某些主题在语料库中以及相对情感的重要性。
translated by 谷歌翻译
我们研究了差异私有线性回归的问题,其中每个数据点都是从固定的下高斯样式分布中采样的。我们提出和分析了一个单次迷你批次随机梯度下降法(DP-AMBSSGD),其中每次迭代中的点都在没有替换的情况下进行采样。为DP添加了噪声,但噪声标准偏差是在线估计的。与现有$(\ epsilon,\ delta)$ - 具有子最佳错误界限的DP技术相比,DP-AMBSSGD能够在关键参数(如多维参数)(如多维参数)等方面提供几乎最佳的错误范围$,以及观测值的噪声的标准偏差$ \ sigma $。例如,当对$ d $二维的协变量进行采样时。从正常分布中,然后由于隐私而引起的DP-AMBSSGD的多余误差为$ \ frac {\ sigma^2 d} {n} {n}(1+ \ frac {d} {\ epsilon^2 n})$,即当样本数量$ n = \ omega(d \ log d)$,这是线性回归的标准操作制度时,错误是有意义的。相比之下,在此设置中现有有效方法的错误范围为:$ \ mathcal {o} \ big(\ frac {d^3} {\ epsilon^2 n^2} \ big)$,即使是$ \ sigma = 0 $。也就是说,对于常量的$ \ epsilon $,现有技术需要$ n = \ omega(d \ sqrt {d})$才能提供非平凡的结果。
translated by 谷歌翻译
对于普通人来说,了解唇部运动并从中推断出讲话是很困难的。准确的唇部阅读的任务从说话者的各种线索及其上下文或环境环境中获得帮助。每个演讲者都有不同的口音和说话风格,可以从他们的视觉和语音功能中推断出来。这项工作旨在了解语音和单个说话者在不受约束和大型词汇中的嘴唇运动顺序之间的相关性/映射。我们将帧序列建模为在自动编码器设置中的变压器之前,并学会了利用音频和视频的时间属性的关节嵌入。我们使用深度度量学习学习时间同步,这指导解码器与输入唇部运动同步生成语音。因此,预测性后部为我们提供了以说话者的说话风格产生的演讲。我们已经在网格和LIP2WAV化学讲座数据集上训练了模型,以评估在不受限制的自然环境中唇部运动的单个扬声器自然语音生成任务。使用人类评估的各种定性和定量指标进行了广泛的评估还表明,我们的方法在几乎所有评估指标上都优于lip2wav化学数据集(在不受约束的环境中的大词汇)(在不受约束的环境中的大词汇),并且在边缘上胜过了较大的范围。网格数据集。
translated by 谷歌翻译